فهرست مطالب

نشریه علوم و فنون نقشه برداری
سال دوازدهم شماره 1 (پیاپی 45، تابستان 1401)

  • تاریخ انتشار: 1401/12/09
  • تعداد عناوین: 13
|
  • جواد بخشیان، علیرضا وفایی نژاد*، علیرضا قراگوزلو صفحات 1-12

    وقوع جرم در جامعه، نه تنها باعث ایجاد ناامنی و آشفتگی زندگی مردم می شود و هزینه های مادی و معنوی گسترده ای بر دوش جامعه می گذارد، بلکه زمان، هزینه و انرژی بسیار زیادی را نیز از ماموران امنیتی کشور به خود معطوف می کند. بررسی مکانی وقوع جرم در گذشته و پیش بینی احتمال رخداد آن در آینده و یا به عبارت دیگر، تعیین کانون های مکانی جرم خیز می تواند به مدیریت بهتر پیشگیری از وقوع جرم و یا برخورد موثر با آن کمک کند. اما متاسفانه اندازه گیری یک کانون بحران یک مسیله پیچیده است. در این راستا، روش های آماری وجود دارند که برای شناسایی کانون های بحران می توانند مورد استفاده قرار گیرند، که از جمله آن ها تحلیل های خوشه ای است. در پژوهش حاضر سعی شده است جهت کارایی مناسب اینگونه تحلیل ها، با رویکردی ترکیبی از سامانه های اطلاعات مکانی و خوشه بندی K-means، توزیع مکانی جرم در شهر قزوین (به عنوان نمونه موردی) مورد بررسی قرار گیرد تا براین اساس، به تعیین دقیق تر مکان کانون های جرم کمک شود. نتایج نشان داد که این رویکرد ترکیبی، امکان مدلسازی کانون های مکانی وقوع جرم در شهر قزوین را دارا بوده، به نحوی که مشخص شد، توزیع جرم های اقتصادی و اجتماعی در حوالی کلانتری 11 و جرایم امنیتی در کلانتری 17 شهر مذکور، بیشتر است.

    کلیدواژگان: وقوع جرم، کانونهای بحران، خوشه بندی، سامانه های اطلاعات مکانی، قزوین
  • محمدامین منوچهری، علی حسینی نوه احمدآبادیان* صفحات 13-31

    ترکیب فاصله یاب و دوربین کاربرد زیادی در حوزه رباتیک، نقشه برداری و خودروهای خودران جهت تهیه نقشه و برداشت اطلاعات رنگ و بافت اشیاء دارد. برای تلفیق داده های فاصله یاب و دوربین، باید این دو سنسور بادقت زیادی نسبت به هم کالیبره شوند، یعنی بردار انتقال و ماتریس دوران آن ها نسبت به هم  مشخص باشد. در این تحقیق، سه روش مختلف برای کالیبراسیون خارجی فاصله یاب و دوربین ارایه شده است. در فرآیند کالیبراسیون با استفاده از ابرنقطه سه بعدی و ابرنقطه دوبعدی، توپ های پینگ پنگ به عنوان تارگت های مشترک که در داده های دوربین و فاصله یاب قابل شناسایی هستند، استفاده می شود. در روش کالیبراسیون با استفاده از ابرنقطه سه بعدی، با استفاده از ابر نقطه تولیدشده از تست‏فیلد در ایستگاه اصلی و انجام باندل‏اجسمنت با استفاده از مجموعه تصاویر گرفته شده از تست‏فیلد، پارامترهای کالیبراسیون محاسبه می شود. در این روش، ابرنقطه سه بعدی از ترکیب داده های فاصله یاب دوبعدی و سروموتور به دست می آید. از طرف دیگر، با استفاده از تصاویر گرفته شده از تست‏فیلد و تکنیک باندل‏اجسمنت، موقعیت توپ ها در مدل فتوگرامتری به دست می آید. روش دوم مشابه روش اول است با این تفاوت که به جای ابرنقطه سه بعدی از ابرنقطه دوبعدی استفاده شده است. در روش اول و دوم مختصات مراکز توپ های پینگ پنگ در دو سیستم مختصات مختلف در دسترس است؛ بنابراین، ارتباط بین دو سیستم مختصات با معادلات کانفرمال سه بعدی به دست می آید. در روش سوم با استفاده از هرم ایجادشده در گوشه اتاق و حل مسیله perspective-three-point، پارامترهای کالیبراسیون فاصله یاب دوبعدی در ایستگاه اصلی نسبت به تست‏فیلد فقط با یک اسکن محاسبه می شود. پارامترهای کالیبراسیون دوربین ایستگاه اصلی نسبت به تست‏فیلد از طریق باندل‏اجسمنت و معادلات کانفرمال سه بعدی محاسبه می شود. در آخر، پارامترهای کالیبراسیون فاصله یاب نسبت به دوربین به دست می آید. باتوجه به RMSE محاسبه شده برای نقاط چک، به ترتیب کالیبراسیون با استفاده از ابرنقطه سه بعدی، کالیبراسیون با استفاده از گوشه اتاق و کالیبراسیون با استفاده از ابرنقطه دوبعدی بیشترین دقت را داشتند.

    کلیدواژگان: فاصله یاب دوبعدی، کالیبراسیون خارجی فاصله یاب و دوربین، دوربین، باندل اجسمنت، Perspective-Three-Point
  • نرگس تخت کشها*، علی محمدزاده صفحات 33-47

    طی سه دهه اخیر، تولید نقشه تخریب ساختمانها پس از زلزله، یکی از مهمترین چالش های مطرح در حوزه مدیریت بحران می باشد. در اکثر مطالعات پیشین از داده های ماهواره ای برای تولید نقشه های تخریب ساختمان ها استفاده شده است ولی به دلیل هندسه ضعیف این نوع داده ها و نویز بالا، اخیرا تمایل زیادی جهت بکارگیری داده های پهپادی به منظور شناسایی درجات تخریب ساختمان ها طبق استاندارد EMS98  ایجاد شده است. لذا در این تحقیق، داده های اخذ شده پس از زلزله سرپل ذهاب به منظور شناسایی درجات تخریب ساختمان- ها در چهار کلاس، شامل " تخریب نشده یا تخریب جزیی " ،"تخریب کم "،" تخریب شدید " و "ویران شده" مورد استفاده قرار گرفته است. در روش پیشنهادی، ابتدا داده های خام به ابر نقاط و تصاویر اورتوفتو تبدیل شد. سپس  روش نوینی مبتنی بر تصمیم گیری درختی و به صورت حذفی ارایه گردید که با درجه اتوماسیون بالایی اقدام به تفکیک و شناسایی کلاس های تخریب بیان شده می نماید. همچنین به منظور سرعت بخشی به تولید ویژگی مهم مدل رقومی سطح  نرمال شده  حاصل از ابرنقاط،روش جدیدی ارایه شده است. علاوه بر این جهت شناسایی کامل ساختمانهای ویران شده ، شاخص لبه نوینی در این تحقیق پیشنهاد گردیده است. از مهمترین ویژگی روش ارایه شده در نظر گرفتن همزمان سه رکن مهم در مدیریت بحران شامل سرعت، دقت و هزینه در طراحی روش پیشنهادی می باشد. نتایج بدست آمده بر روی دو محدوه در شهر سرپل ذهاب، حاکی از حصول دقت کلی و ضریب کاپا به ترتیب 86% و81% و نیز مدت زمان پردازش حدود 15 ثانیه ای در منطقه ای با 142 ساختمان می باشد و این نشان دهنده کارایی بالای روش پیشنهادی است.

    کلیدواژگان: نقشه تخریب زلزله، پهپاد، مدیریت بحران، روش درخت تصمیم گیری حذفی
  • مائده صفری، علیرضا شریفی*، فرهاد حسینعلی صفحات 49-61

    فضای سبز یکی از کاربری های حیاتی شهر برای تداوم زندگی در شهرها به حساب می آید و بدون آن فعالیت سایر موجودات زنده از جمله انسان کاملا و یا حتی غیر ممکن می گردد. بنابراین کمبود و کاستی در امر مدیریت این کاربری می تواند تاثیرات مخربی بر روح و روان شهروندان بگذارد. در دهه های اخیر، با توجه به رشد مهاجرت به سمت استان تهران و تقاضای هرچه بیشتر به مسکن و مناطق صنعتی در این استان کمبود فضای سبز بیش از پیش در این استان نمایان شده و باعث بروز مسایل عدیده ای همچون مسایل زیست محیطی، تشدید آلودگی هوا و افزایش ساخت و سازهای بی رویه شده است. از این رو هدف از مقاله حاضر ارزیابی فضای سبز شهر تهران و مقایسه روند تغییرات فضای سبز با استفاده از تصاویر راداری سنتینل-1 و لندست-8 در سال های 1393 و 1399 می باشد. به منظور آشکارسازی تغییرات، پس از پیش پردازش ماهواره ای برای پایش تغییرات به طبقه بندی با استفاده از روش جنگل تصادفی پرداخته شده. بر این اساس دقت کلی طبقه بندی 47 درصد و شاخص کاپا 39/0 استخراج گردید که با توجه به نوع داده های مورد استفاده دقت کلی نشان دهنده تطابق خوب واقعیت و تصاویر ماهواره ای داشته و با استفاده از ویژگی های بافت ماهواره ای راداری، نشان داده شد که طی سال های 1393 و 1399 تغییری در وسعت  فضای سبز وجود نداشته و در برخی از  مناطق شهر تهران سرانه ی فضای سبز  رو به کاهش می باشد.

    کلیدواژگان: سنجش از دور، فضای سبز، سنتینل-1، لندست-8، آشکارسازی، جنگل تصادفی
  • مهدی شاخصی*، علی اصغر آل شیخ صفحات 63-79

    رخدادهای طبیعی اغلب با تاثیرات اجتماعی، اقتصادی و محیطی همراه می شوند. هر چند سنجنده های مختلفی در امر پایش این رخدادها می توانند بکار گرفته شوند ولی تحلیل کارآمد این رخدادها نیازمند توسعه پایگاه داده هایی متشکل از رخدادها و اطلاعات مکانی، زمانی و توصیفی آن ها است. برای توسعه سیاهه رخدادها، می توان از رسانه های جمعی و اجتماعی به خاطر دربرگرفتن اطلاعات جزیی تر در مقایسه با گزارش های سالیانه، بهره برد. در این پژوهش، با کمک تکنیک های متن کاوی چارچوبی برای استخراج خودکار رخدادهای طبیعی از گزارش های خبری توسعه داده شده است. پس از وبکاوی اخبار و حذف موارد غیرمرتبط با رخدادهای طبیعی، استانداردسازی متن انجام می شود. در ادامه، با کمک مدل های مبتنی بر یادگیری ماشین نخست مشخص می شود که خبر درباره رخدادی جدید یا جاری است و دوم در قالب چه موضوعی به رخداد طبیعی پرداخته شده است (مقادیر 0/875 و 0/716 به ترتیب برای F-score مدل های طبقه بندی اول و دوم اخذ شده است). همچنین با بهره گیری از مدلی قاعده محور انواع رخدادهای مطرح شده شناسایی می شود. بعد از تشخیص جاینام های مدیریتی، به ازای هر «نوع رخداد-جاینام» اطلاعات زمانی و توصیفی از هر خبر استخراج می شود. در آخر، رخدادهای طبیعی به همراه گزارش های خبری مربوطه شناسایی گردآوری می شوند. نتایج پیاده سازی این چارچوب برای کشور ایران از آغاز 1390 تا پایان 1399 براساس اخبار خبرگزاری مهر در بخش های بررسی محتوای خبری مرتبط با رخدادهای طبیعی، تحلیل توزیع مکانی و زمانی رخدادها ارایه شده است. طبق نتایج تحقیق، از نظر زمانی تعداد کل رخدادها در ماه های آغازین و پایانی سال بیشتر است. از لحاظ مکانی، فارغ از حجم خسارات، استان های جنوبی بیشتر از استان های شمالی رخداد زمین لرزه گزارش می شود. در مقابل، تنوع رخدادهای هواشناسی در استان های شمالی بیشتر است. خروجی این تحقیق می تواند در افزایش کارآمدی مدیریت بحران مورد استفاده قرار گیرد.

    کلیدواژگان: رخداد طبیعی، توزیع مکانی و زمانی، گزارش های خبری، متن کاوی، استخراج اطلاعات
  • صبا فرشیدی، فرشید فرنود احمدی، وحید صادقی* صفحات 81-93

    پوشش های سطح زمین در طول گذر زمان همواره دستخوش تغییرات بوده است و چه بسا این تغییرات در آینده نیز رخ خواهند داد. با شناسایی نوع تغییرات و مهم تر از همه مدل تغییرات پوشش زمین، نه تنها اطلاعات صحیح و بهنگام از سطح زمین در دسترس خواهد بود، بلکه حتی این امکان نیز فراهم می شود تا تغییرات آتی پوشش زمین با در نظر گرفتن قواعد جغرافیایی و الگوهای رفتار پدیده ها پیش بینی گردد. سنسورهای ماهواره ای از جمله ابزارهای مهم و ارزشمند سنجش از دوری است که تصاویر با رزولیشن های مختلف و داده های منظم و گسترده از سطح زمین را ارایه می نمایند. از طرفی تلفیق این تصاویر، به ویژه تصاویر راداری و نوری با توجه به ویژگی های منحصر به فرد هر یک از آنها، در پیشرفت روش های شناسایی و مدلسازی تغییرات نقش مهمی داشته است. در تحقیق حاضر، با بکارگیری تصاویر سری زمانی، الگوی رفتار مکانی و زمانی تغییرات پوششی در بازه زمانی معلوم ملحوظ شده و بدین طریق تغییرات سطح زمین مدلسازی می گردد. سپس تغییرات پوششی زمین برای زمان آتی با بکارگیری مدل مکانی-زمانی ارایه شده، پیش بینی می شود. تصاویر راداری و نوری با یک رویکرد ابتکاری که مبتنی بر ترکیبی از تلفیق در سطوح ویژگی و تصمیم گیری است، با یکدیگر تلفیق می شوند. در روش پیشنهادی، تلفیق بر اساس تعریف یک نگاشت خطی بین ویژگی های مستخرج از تصاویر راداری و نوری متناظر، در یک سری است. در مقایسه با نتایج طبقه بندی الگوریتم RF، نتایج حاصل از پیش بینی تغییرات پوشش زمین در این تحقیق، که شامل پوشش آب، پوشش گیاهی، اراضی بایر و شوره زار است، به ترتیب بیانگر صحت 5/82، 9/94، 8/86 و 7/94 درصدی بود.

    کلیدواژگان: شناسایی و پیش بینی تغییرات، تصاویر سری زمانی، مدلسازی مکانی-زمانی، تلفیق تصاویر اپتیک و رادار
  • آوا توکلی دارستانی، نیکروز مستوفی*، آرمین مقیمی صفحات 95-110

    زیست توده جزء کلیدی در چرخه کربن می باشد، از این رو ارزیابی دقیق آن به منظور مدیریت جنگل و درک نقش آن در تغییرات آب و هوایی، اهمیت بسیاری دارد. امروزه استفاده از تکنیک های سنجش از دور با کمک داده های میدانی، تحولی شگرف را در برآورد زیست توده جنگل ها ایجاد کرده است. در این تحقیق به منظور بهبود دقت برآورد زیست توده مناطق جنگلی، از ویژگی های مستخرج از تصاویر اپتیک سنجنده Sentinel-2 و داده های راداری Sentinel-1 و همچنین داده های میدانی مناطق جنگلی نور، استان مازندران که نوع پوشش جنگلی آن، ممرز-بلوطستان است و همچنین شامل گونه های نادر از جمله درختان سفید پلت می باشد که در این مطالعه در چهار کلاس پوشش گیاهی مخلوط، جنگل طبیعی، جنگل تخریب شده و ذخایر جنگلی مورد بررسی قرار گرفتند و روش بهینه سازی ژنتیک استفاده شده است. در این راستا، جهت مدلسازی بین داده های زمینی و ویژگی های راداری و نوری از روش رگرسیون خطی چند متغیره و رگرسیون ماشین بردار پشتیبان استفاده شده است. همچنین به منظور انتخاب ویژگی های بهینه مستخرج از تصاویر راداری و نوری از الگوریتم ژنتیک در طول فرآیند مدلسازی با استفاده از رگرسیون خطی چند متغیره استفاده شده است. ارزیابی نتایج نشان داد که استفاده از روش رگرسیون چند متغیره منجر به نتایج دقیق تری نسبت به روش رگرسیون ماشین بردار پشتیبان در منطقه مورد مطالعه شده است. همچنین، ارزیابی نتایج حاصل از اعمال رگرسیون خطی چند متغیره نشان می دهد که استفاده از ویژگی های انتخاب شده مبتنی بر الگوریتم ژنتیک، منجر به افزایش دقت ضریب تعیین R2 به میزان 78/0، 87/0، 68/0، و 79/0 به ترتیب در کلاس های اول تا چهارم پوشش گیاهی انتخابی شده است. لذا نتایج حاصل نشان دهنده این است که بکارگیری الگوریتم ژنتیک به همراه روش رگرسیون چند متغیره موجب بهبود دقت برآورد زیست توده در این تحقیق شده است.

    کلیدواژگان: برآورد زیست توده، الگوریتم ژنتیک، تصاویر راداری و اپتیک، رگرسیون خطی چند متغیره
  • محمدامین دره شوری، مهران یزدی* صفحات 111-125

    زمین لغزش یک پدیده ی زمین شناسی است که در دامنه های ناپایدار مناطق کوهستانی رخ داده و در برخی از موارد خسارات جانی و اقتصادی بسیار شدیدی ایجاد می کند. با استفاده از پهنه بندی مناطق مستعد به وقوع زمین لغزش، می توان از خسارات احتمالی در آینده جلوگیری نمود. بدین منظور، نقشه ی حساسیت زمین لغزش با استفاده از دو روش یادگیری ماشین ANFIS و SVR و ترکیب آن ها با الگوریتم های فراابتکاری PSO و GWO تولید می شوند. فاکتورهای موثر انتخاب شده شامل چهارده فاکتور ارتفاع، شیب، جهت شیب، انحنای طولی و عرضی شیب، کاربری اراضی، لیتولوژی، بارندگی، فاصله از جاده، فاصله از رودخانه، فاصله از گسل، تراکم جاده، تراکم رودخانه و تراکم گسل می باشد. نقشه ی زمین لغزش های رخ داده شامل 253 نقطه تهیه شده و از بین نقاط لغزشی 70% برای مدل سازی و 30% باقی مانده نیز برای صحت سنجی در نظر گرفته می شوند. سپس، نقشه های مربوط به هر پارامتر تهیه  شده و پس از آماده سازی پایگاه داده، مدل های ترکیبی ANFIS-PSO، ANFIS-GWO، SVR-PSO و SVR-GWO پیاده سازی می شوند. سپس، شاخص حساسیت زمین لغزش برای هر مدل برآورد می شود که در طی فرآیند مدل سازی با استفاده از شاخص آماری RMSE عملکرد هر روش ارزیابی می گردد. در گام آخر، با استفاده از نرم افزار ArcMap 10.5 نقشه های حساسیت زمین لغزش برای هر مدل تولید شده و سپس با استفاده از منحنی ROC دقت هر نقشه تخمین زده می شود. نتایج حاصل از نمودار ROC برای مدل های ANFIS-PSO، ANFIS-GWO، SVR-PSO و SVR-GWO به ترتیب 89.4، 85.7 ، 88.1 ، 88.7 بدست آمد.

    کلیدواژگان: یادگیری ماشین با نظارت، زمین لغزش، الگوریتم های بهینه سازی، GIS
  • نوید بیشه ای*، ابوذر رمضانی صفحات 127-138

    امروزه مهم ترین اهداف هر سازمان بهداشتی، سالم سازی محیط زیست، کنترل بیماری ها، آموزش بهداشت، پیش گیری، اقدامات پزشکی و پرستاری جهت تشخیص سریع، کنترل و مدیریت بیماری ها می باشد. در جوامع امروزی سطح زندگی مردم ارتباط مستقیم با مراقبت های بهداشتی در آن ها دارد، رشد و توسعه امور بهداشتی باعث بالا رفتن سطح زندگی مردم ازنظر فرهنگ و سلامت خواهد شد. در بررسی بیماری ها مطالعه مکانی منطقه از اهمیت خاصی برخوردار است، چراکه وقوع بسیاری از بیماری ها به شرایط جغرافیایی منطقه وابسته است. بسیاری از عوامل بیماری زا اپیدمیک هستند و به منطقه یا ناحیه خاصی تعلق ندارند، درحالی که برخی از آن ها در مناطق خاصی رخ می دهند. به منظور بررسی جنبه های مختلف یک بیماری و بررسی ارتباط آن با عوامل محیطی، اقتصادی و اجتماعی و اکولوژیکی، GIS ابزارهای مناسبی را در اختیار قرار می دهد. با استفاده از GIS می توان توزیع بیماری را در مقیاس های مختلف مشاهده کرد از تحلیل های زمین آماری برای کشف رابطه عوامل مختلف با بیماری استفاده کرد، با تحلیل های مکانی-زمانی، بیماری را پیش بینی نمود و برای مقابله با آن طرح های ایمن سازی مطرح نمود و با تحلیل هایی چون دسترسی، توزیع منابع را بررسی نمود. هدف تحقیق حاضر ارایه مدلی جهت بررسی الگوی توزیع بیماری های اوریون، سیاه سرفه، سرخجه، آبله مرغان و هاری در سطح شهر همدان و در سال های 1394 تا 1398 می باشد. در این خصوص ابتدا آزمون های آماری کلاسیک در ارتباط با داده های بیماری های موردبررسی اجرا شد. سپس آمار توصیفی مربوط به بیماران موردبررسی قرار گرفت. متغیرهای مربوط به اطلاعات جمعیت شناختی، شامل جنسیت و سن بیماران می باشد. پس از انجام آزمون های آماری کلاسیک، آماره های مکانی تحقیق همچون، بررسی خوشه بندی مبتلایان به بیماری های موردتحقیق، خودهمبستگی مکانی و توزیع براساس فاصله از کاربری های شهری بررسی گردید. پس ازآن با استفاده از داده های موجود، براساس روش مدل سازی میانگین متحرک، مدل توزیع بیماری در سطح شهر همدان تولید و یافته های مدل با استفاده از داده های توزیع بیماری مربوط به سال 1398 ارزیابی و صحت سنجی گردید.

    کلیدواژگان: آماره مکانی، بیماری های واگیردار، سامانه اطلاعات مکانی، مدل سازی
  • فرناز اشتری ماهینی*، فرهاد صمدزادگان، فرزانه دادرس جوان صفحات 139-156

    امروزه پهپادها به دلیل مزایای فراوان و طیف گسترده ای از کاربردها از قبیل نقشه برداری، کشاورزی و مدیریت بحران بسیار مورد توجه قرار گرفته اند و جایگزین بسیاری از روش های سنتی موجود گردیده اند. با این وجود گسترش پهپادها و ورود غیرمجاز آن ها به زیرساخت های مهم مانند ساختمان های دولتی می تواند زمینه تهدیدهای احتمالی را در تامین امنیت عمومی جامعه ایجاد کند. از این رو تدابیر متقابل نظیر به کارگیری سامانه های تشخیص، محلی سازی و رهگیری پهپادهای کوچک بسیار حایز اهمیت است. در سال های اخیر روش های تشخیص مبتنی بر شبکه های عصبی و رویکردهای یادگیری عمیق، توانایی قابل توجهی در حوزه تشخیص پهپاد از خود نشان داده است. از این رو در این تحقیق از یک روش تشخیص مبتنی بر شبکه های یادگیری عمیق پیچشی به منظور تشخیص پهپاد استفاده شده است. از سوی دیگر استفاده از تصاویر مریی با مشکلاتی از قبیل وجود نواحی پنهان، پیش زمینه شلوغ و عدم امکان جداسازی پیش زمینه و مشکلات نور داخل تصویر مواجه هستند. هم چنین سامانه های مبتنی بر تصویر حرارتی، با وجود بهره مندی از قدرت دید در شب، دارای قدرت تفکیک مکانی کمتری نسبت به تصویر مریی می باشند که روند تشخیص پهپاد را با مشکل دقت مواجه می کند. اخیرا، استفاده از تصاویر عمق که چالش های مرتبط با تصاویر مریی را ندارند و نشان دهنده میزان دوری و نزدیکی شی تا دوربین هستند، بسیار مورد استقبال قرار گرفته است. در این پژوهش با استفاده از مجموعه تصاویر عمق شبیه سازی و واقعی و با استفاده از شبکه یادگیری عمیق YOLO(You Only Look Once) به تشخیص پهپاد، پرداخته شده است. تصاویر عمق واقعی در این پژوهش از طریق الگوریتم تناظر یابی شبه سراسری (SGM) به دست آمده و سرانجام اعتبار سنجی مدل آموزش دیده، با انواع تصاویر عمق واقعی و شبیه سازی با سه نوع پهپاد در محیط داخل و خارج بررسی شده است. در نهایت نتایج حاصل از تشخیص پهپاد با شبکه یادگیری عمیق موردنظر در تصاویر عمق شبیه سازی به میانگین دقت 84 درصد، میانگین زمان 125 میلی ثانیه و در تصاویر عمق واقعی به میانگین دقت 74 درصد، میانگین زمان 133 میلی ثانیه رسید.

    کلیدواژگان: تشخیص پهپاد، تصاویر عمق، یادگیری عمیق، شبکه یادگیری عمیق YOLO، الگوریتم تناظریابی SGM
  • آناهیتا امیدی*، نجمه سامانی، محمدرضا جلوخانی نیارکی، علی منصوریان، عباس قیصوری صفحات 157-169

    بیماری مزمن انسداد ریوی (COPD) یکی از شایع ترین بیماری های دستگاه تنفس در سطح جهان است که باعث تنگی نفس و اختلال در روند طبیعی بازدم می گردد و تعداد مرگ ومیر بالایی در سطح جهان به خود اختصاص داده است. با وجود پیشرفت های فناوری در حوزه های درمانی، بسیاری از بیماران خدمات درمانی مناسب را دریافت نمی کنند که از عوامل آن عدم ارزیابی مناسب سطح بیماری براساس شدت علایم و همچنین ویژگی های مکان مرجع بیمار است. مطالعات اخیر حاکی از آن است که استفاده از سیستم های استنتاج فازی در تشخیص دقیق و درمان به موقع بیماری ها موثر بوده و موجب بهبود کیفیت زندگی و کاهش هزینه های مراقبت های بهداشتی می گردد. در این مقاله یک رویکرد نوین با استفاده از استنتاج بافت های فردی و محیطی ارایه شده که سعی در اطلاع رسانی دقیق و سریع بیماران از سطح بیماری COPD دارد. سیستم بافت آگاه پیشنهادی با دریافت بافت های فردی و محیطی که در تعامل فرد با سیستم دریافت شده، اطلاعات مورد نیاز را با روش منطق فازی پردازش و استنتاج کرده و براساس شرایط جاری کاربر، وی را از سطح بیماری خویش مطلع می کند. در این مطالعه بیماران مبتلا به COPD در طول یکسال در شهرستان ایلام جهت بررسی علایم بالینی مورد مطالعه قرار گرفتند. نتایج نشان داد که استفاده از سیستم های خبره فازی مبتنی بر بافت، پاسخ دقیقی از وضعیت بالینی بیمار در مقایسه با تشخیص پزشک مربوطه نسبت به متغیرهای فردی و محیطی ارایه می دهد.

    کلیدواژگان: بیماری انسداد مزمن ریوی، بافت آگاهی، بافت های فردی و محیطی، سیستم استنتاج فازی
  • زینب قاسمپور، سعید بهزادی* صفحات 171-186

    واقعیت این است که مردم اغلب به دنبال مسیری هستند که پارامترهای کوتاه بودن، کم هزینه بودن و صرف کمترین انرژی را توامان داشته باشد. اما ترافیک یکی از عوامل بسیار تاثیرگذار در انتخاب مسیر برای رسیدن به مقصد است. می توان گفت مردم یک مسیر طولانی اما با ترافیک کم را به یک مسیر کوتاه اما با ترافیک سنگین ترجیح می دهند. بنابراین ترافیک، بسیاری از معادله های مسیر بهینه را بر هم می زند. از این رو  واضح است که اصلی ترین معیار برای انتخاب مسیر در میان جوامع مختلف، وضعیت ترافیک در مسیر مربوطه است. همین امر، خود ضرورت انجام این تحقیق و تلاش برای جمع آوری داده های ترافیکی را روشن می سازد. اگر هدف تحقیق محقق شود، کمترین اثر آن، صرفه جویی در زمان و هزینه و انرژی است. بدین منظور در این پژوهش، به جمع آوری داده های ترافیکی استان تهران به کمک بسترهای نوین پرداخته شده است. داده های ترافیکی به صورت لحظه ای وجود دارند، اما مشکلی که وجود دارد، این است که بستری برای جمع آوری و ذخیره سازی آن وجود ندارد. عدم وجود یک بستر مناسب برای ذخیره سازی داده های ترافیکی، همواره معضلی بوده است که محققین این حوزه را به چالش کشیده و با مشکل مواجه کرده است. از این رو در این پژوهش، به روشی برای جمع آوری و ذخیره سازی اطلاعات ترافیکی در بستر وب پرداخته شده است. طی این پژوهش، مشخص شد که نقطه ای که دارای ترافیک سنگین است، در بیشتر ساعات روز، ترافیک سنگین دارد. بویژه در ساعاتی در شبانه روز که ساعات رفت و برگشت افراد به محل کار است. طی این پژوهش همچنین مشخص گردید که نقاطی که دارای ترافیک سنگین هستند، رفتاری یکنواخت در طول روزهای مختلف هفته دارند. به عبارتی دیگر، کمتر دیده می شود که نقاط دارای بارهای ترافیکی متفاوت، تفاوت چشمگیری در وضعیت ترافیکی داشته باشند. از نظر دقت، می توان بیان کرد که برداشت نقاط داده های ترافیکی از نظر موقعیت مکانی با دقت قابل قبولی انجام گرفته است و نقاط برداشت شده داری بیشترین تطابق با داده های دیگر موجود در پایگاه داده می باشند.

    کلیدواژگان: ترافیک، سیستم های اطلاعات جغرافیایی(GIS)، مدل تحت وب، رفتارشناسی ترافیک، ذخیره سازی خودکار ترافیک
  • نجمه نیسانی سامانی*، آسیه نمازی، سحر دارایی صفحات 187-195

    امروزه سامانه های توصیه گر مکانی، امکان تحلیل و توصیه خدمات مکانی را برای کاربران مختلف ایجاد کرده اند. قابلیت شخصی سازی ارایه خدمات به کاربران متنوع سیستم قابلیت بکارگیری و کارایی اینگونه سامانه ها را افزایش داده است. شخصی سازی توصیه ها در در حوزه مکان های ورزشی از جمله خدمات شهری است که در افزایش سطح سلامت شهروندان و جامعه می تواند بسیار موثر باشد. هدف از تحقیق حاضر طراحی یک سامانه توصیه گر دانش مبنای شخصی سازی شده ای است تا فرد بر اساس نیاز ها و شرایط خود مناسب ترین و بهینه ترین موقعیت ها برای دریافت خدمات ورزشی را دریافت نمایند. جهت اجرای طرح پیشنهادی افرادمختلف براساس ویژگی ها و شرایط شخصی به کمک الگوریتم شبکه عصبی نگاشت خودسازمان ده خوشه بندی شدند و در ادامه جهت مدل سازی عدم قطعیت، ترجیحات افراد در موتور استنتاج فازی شهودی وارد و خروجی صریح و دقیقی به دست آمده و به کاربر ارایه گردید. تعداد 98 نفر در سامانه ثبت نام کردند و به 7 خوشه متفاوت تقسیم شدند. برای هر خوشه فرایند شخصی سازی برای ارایه خدمات انجام شد. در نهایت سامانه بر اساس سه پارامتر دقت (74/0)، حساسیت (81 /0) و F-Score (77 /0) مورد ارزیابی قرار گرفت و نتایج حاصل حاکی از عملکرد خوب و قابل قبول رویکرد پیشنهادی دارد.

    کلیدواژگان: مکانهای ورزشی، سامانه های توصیه گر، شخصی سازی، فازی شهودی، شبکه عصبی نگاشت خودسازمان ده
|
  • J. Bakhshian, A. R. Vafaeiejad*, A. R. Gharagozlu Pages 1-12

    The occurrence of crime in society causes insecurity and chaos in people's lives, imposes extensive material and spiritual costs on society, and diverts a lot of time, money, and energy from the country's security agents. Spatial investigation of a crime in the past and predicting the likelihood of its occurrence in the future, or in other words, determining the spatial centers of crime, can help manage crime prevention better or deal with it effectively. Unfortunately, measuring a crisis center is a complex issue. In this regard, many statistical methods can be used to identify crisis hotspots, including cluster analysis. In the present study, for the proper efficiency of such analyzes, with a combined approach of spatial information systems and K-means clustering, the spatial distribution of crime in Qazvin (as a case study) is investigated. Assist in locating crime centers more accurately. The results showed that this combined approach could model the local centers of crime in Qazvin.

    Keywords: Crime Occurrence, Crisis Centers, Clustering, Geospatial Information Systems, Qazvin
  • M. A. Manouchehri, A. Hosseini Naveh Ahmadabadian* Pages 13-31

    The combination of 2D laser rangefinder(LRF) and camera has many application in robotics, mapping,self-driving vehicles to map and capture  color and texture information of objects. to fuse LRF and camera’s data, these  sensors must be carefully calibrated related to each other. Extrinsic calibration between a LRF and camera is often performed by common features. Therefore extrinsic calibration between LRF and camera is necessary process.  Extrinsic calibration between a Camera and a LRF  is often performed by common features in data captred by two sensors. In this research, three difrent methods for extrinsic calibration between a LRF and a camera using photogrammetric control field and ping pong balls are presented. In calibration process using 3D and 2D point clouds,ping pong balls are used as common targets that can be identified in the camera and LRF data. In calibration using the 3D point clouds, the calibration parameters are calculated using the point clouds generated from the test field at the main station and performing the bundel adjusment using a set of images taken from the control field. In this method, a 3D point cloud is obtained from combination of 2D LRF and servo motor data. The 2D LRF  is connected to the servo motor by a gimbal so that the extension of the servo motor shaft pass through the center of the LRF. The LRF rotation is measured by the encoder in the servo motor, and by rotating the LRF, all 2D scans at a station can be registered relative to each other. On the other hand, through images taken from the control field and bundel adjusment technoque, the position of the balls in the photogrammetric model is obtained. The second method is similar to the first method,except that a 2D point cloud is used instead of a 3D point cloud. In the first and second methods, the coordinates of the centers of ping pong balls are available in two different coordinate systems, so the relationship between the two coordinate systems with the 3D conformal equation is obtained. In the third method, through the pyramid created in the corner of the room and solving the perspective-three-point problem,  the 2D LRF calibration parameters at the main station relative to the control field are calculated with just one scan. The calibration parameters of camera in the main station relative to the control field are calculated using bundel adjusment and 3D conformal equations. Finally, the calibration parameters of the LRF relative to the camera are obtained. According to the RMSE calculated for checkpoints, calibration using 3D point cloud,calibaration using room corner and calibration using 2D point cloud were the most accurate, respectively.

    Keywords: ‎2D Laser Range Finder, Camera, Extrinsic Calibration between LRF, Bundel Adjusment
  • N. Takhtkeshha*, A. Mohammadzadeh Pages 33-47

    In the recent three decades, building damage map production after an earthquake has been one of the most important challenges in disaster management. For decades, researchers have utilized different kinds of sensors, including airborne LiDAR, RADAR, and optical satellite imagery, in order to create earthquake-induced damage maps. LiDAR and RADAR sensors are disadvantageous due to their high cost and difficulty of acquisition. Additionally, optical satellite images are limited by the lack of timely availability of high-resolution imagery, a low signal-to-noise ratio, and the inability to reconstruct 3D data. On the other hand, the recent development of low-cost and flexible-resolution UAVs along with high accessibility has opened up a great opportunity in this area. Furthermore, UAV data make detecting damage levels possible according to the well-known EMS-98 damage standard. However, there are still a few researchers that have considered international damage standards. When developing a strategy for detecting damage, three important factors should be considered: accuracy, efficiency, and cost. Recently, a lot of attention has been paid to deep-learning models in the field of damage detection. These algorithms require enormous amounts of data, which takes a lot of time and energy. Moreover, such models are unlikely to be general enough due to the sophisticated and numerous types of damage that can occur to a building. So, these issues pose a serious limitation for their practical application in a disaster situation. Since this research put forward a novel and rapid method for detecting the damage to buildings on four levels using a designed removal decision tree. For testing the proposed method, orthophoto and DSM were derived from raw and post-event UAV images of two regions of Sarpol-e-Zahab. An overview of the presented framework for generating the damage map of buildings is depicted in figure1. In summary, our original contributions are described as follows:Taking into account three crucial parameters of crisis management including accuracy, cost, and time efficiency.Presenting a height anomaly index that distinguishes minor damage from major damage. In short, this index represents the percent of negative values in clustered DMS based on DBSCAN.Damage level detection according to EMS-98 standard in four levels, including, “no visible damage to slight damaged”, “Minor damaged”, ”major damaged”, and “collapsed”.Fig.1. The proposed method for detecting damage to buildings in 4 levelsThe results for two study areas of "Sarpol-e Zahab" reveals achieving an accuracy of 86% and a kappa coefficient of 81% for processing 142 buildings within just 15 seconds which indicates the efficiency and time efficiency of the proposed method. In addition, Because of being fully automatic (being unsupervised), the cost of this method is very low. As a consequence, our findings in this research revealed the high potential of UAV data for timely damage detection and rescue after an earthquake. However, the negative effects of shadows and trees are some of the challenges that should be considered in future research.

    Keywords: Earthquake-induced Damage Map, UAV, Crisis Management, Removal Decision Tree Method
  • M. Safari, A. R. Sharifi*, F. Hosseinali Pages 49-61

    In recent decades, due to the various facilities in big cities that have caused the expansion of cities and urbanization and the increasing desire of citizens to live with a machine, this change in life pattern has also caused an increase in environmental pollution, difficult conditions for the livability of human life space, such as (The destruction of urban and suburban vegetation and the loss of ecological balance. The expansion of the population of cities and excessive population density in cities has caused the destruction of the natural environment and the construction of artificial structures that require physical and It has made the human spirit more visible to the environment. Considering that Iran is one of the countries located in the dry belt of the world, the cities to deal with noise and air pollution, as well as reduce environmental stress more than any other point to the space They need green. Considering the many problems that we see in changing the urban structure today, the heterogeneous quantification of the environment has been considered as a goal in landscape ecology, so that recently there have been efforts to develop methods In order to quantify the spatial heterogeneity (complexity and variability of the system characteristics, including the mosaic spatial layout of the land surface) (time and space) the features of the land have been done. Terrain metrics are a useful tool for expressing the mosaic pattern of urban green spaces and its changes in connection with urban development processes, which, in addition to interpreting the effect of the aforementioned processes on the ecological characteristics of the environment, can be used in decision making related to the growth of the city, distribution of uses and urban green space development planning. Therefore, according to the existing problems in defining and determining the urban green space, the application of remote sensing science, which is considered a powerful tool in the management of urban resources, and by providing the facilities of this science in order to provide up-to-date information, digital processing of images and the possibility of comparison Sometimes the data has helped experts to monitor the changes of the green space over time. Also, by using remote sensing in combination with terrain measurements, it can improve the understanding of urban spatial structure and change processes. Today, the high speed and extent of changes, both structural and process, in the face of the land, which are caused by destructive human activities, have made planners face many issues and problems. The present study was conducted in order to evaluate map production using Sentinel-1 and Landsat-8 radar images using local climate method and vector machine in Tehran metropolis. Using the proposed method, it was determined that the central and southern parts of Tehran have a very concentrated residential structure, so that urban green spaces are rarely seen in the urban context, while the green spaces in the north of Tehran are scattered among the contexts. It is residential, which indicates the existence of private green spaces in this part of the city. Also, in the south of the city, due to the presence of fine-grained texture in this area, due to the presence of residential centers in these areas, compared to the residential texture of the northern parts of the city, in the central and southern areas, private green spaces do not exist or rarely exist, and this warning increases. Heat islands and higher temperature are in the south of the city. Maps produced using remote sensing can be an alarm for municipal managers who can prevent future problems with planning and management. Also, considering the important role of green space in the morale of citizens and crime reduction, it is necessary for city managers to pay enough attention to the issue of reducing green space and the lack of proper distribution of use in Tehran, because neglecting this issue can lead to other problems. It created compensable for the citizens.

    Keywords: Remote Sensing, Green Space, Sentinel-1, Landsat-8, Detection, Random Forest
  • M. Shakhesi*, A. A. Alesheikh Pages 63-79
    Introduction

    Analyzing natural hazards due to economic, environmental, and social effects is necessary for crisis management. However, good analysis comes from good data. In this case, natural hazard databases or inventories that contain all spatial, temporal, and other relevant information for each event are required. To realize that, news and social media, which provide detailed information about the hazards, are two precious resources. Nevertheless, most works manually extracted events from these text resources in the inventory development process. This paper presents a framework for extracting natural hazard events automatically from news stories by leveraging text mining techniques. By implementing the framework for the study region of Iran, we analyzed the spatial-temporal distribution of natural hazards.

    Materials and Methods

    According to spatial and temporal coverage of Mehr news agency, we selected this website as the main resource, and for training machine-learning-based models, we used ISNA's news articles. The process starts by mining web pages. All irrelevant records such as the news stories about maneuvers, conferences, and contradicts are removed automatically. Then, standardizing the texts of news articles should be accomplished. In the next stage, the text classification technique determines whether a news story is about a newly occurred event or a current event, in which context about the event the news story is published, and which natural hazards are pointed out in the text. For the first and the second text classification task, we used machine-learning-based models which achieved 0.875 and 0.716 for F-score, respectively. For the third task, we developed leveraged a rule-based model. The results of text classifications are used in the proceeding steps, including toponym recognition and resolution, information extraction, and topic detection and tracking.

    Discussion and Results

    The results show that although most natural hazards have a specific temporal distribution, the highest total frequency is for a Solar Hijri year's initial and final months. Spatially, the storm occurs more in eastern than western provinces. The diversity of other meteorological hazards, except dust, in northern provinces, is more than in southern ones. Regardless of the fatalities, the highest frequency of reported earthquake events is for southern provinces.

    Conclusion

    This paper presents a framework for automatically extracting natural hazard events from news stories. The framework leverages several text mining techniques such as text classification and information extraction to develop an inventory of the hazards. We implemented the framework to analyze the natural hazards of Iran from 1390 to 1400 Solar Hijri. Comparing the number of extracted events with the thematic maps published by the National Disaster Management Organization shows that the differences vary with the province. Based on that, the frequency of extracted events for some provinces equals the official statistics; hence the analysis for mined events is generalizable to real-world situations.

    Keywords: Natural Hazard, Spatial-Temporal Distribution, News Stories, Text Mining, Information Extraction
  • S. Farshidi, F. Farnood Ahmadi, V. Sadeghi* Pages 81-93

    The earth and land surface have always changed over time. By identifying and modeling of types of these changes, accurate and up-to-date information will be available from the LULC. It is even possible to predict future land cover changes by considering geographical rules and patterns of change behavior. Satellite sensors are one of the most important remote sensing tools that provide images with different resolutions and regular and extensive data from land surfaces. On the other hand, the combination of these images, especially radar and optical images, according to the specific characteristics of each of them, has had an important impact on the development of methods for detecting and modeling changes. In this research, by using satellite images time series, the pattern of the spatial and temporal behavior of LULC changes in a specific time period was monitored and changes in land surface were modeled. Then LULC changes in the future time are predicted using the spatial-temporal model. The presented model used a spatial autoregressive relationship based on the seasonal and time series trend components. Phenological and temporal changes were modeled by determining the spatial correlation of changes in land cover by the remaining component. Using regression relationships, phenological and temporal changes were modeled according to the spatial correlation of changes in land cover by the component. Finally, considering all changes (gradual, seasonal, and abrupt) according to the designed regression function, a cubic spatial neighborhood window was defined. Array cubes (spatial-temporal) moved on the whole image. In each move, on the one hand, regression parameters were estimated, and by applying these estimates to known data, on the other hand, land cover at the next time was predicted by the spatio-temporal model. The main focus of this research is to recognize and predict the behavior of land cover changes over time by considering the spatial correlation of changes in neighboring pixels within a spatial-temporal model. In this regard, a combination of radar and optical images is used to simultaneously use the capabilities of these images in order to detect the types of land cover and identify their changes. Radar and Optical images are combined with an innovative approach based on a combination of feature-level and decision-level fusion. In the proposed method, the integration is performed based on the definition of a linear relationship between the feature extracted from radar images and optical images in a time series. In the process of combining images, thresholds have been used, which have been determined based on the features extracted from radar and optical images. The threshold for all land cover was determined experimentally by analyzing features extracted during the seasons (rainy and dry). To evaluate the accuracy of the predicted results with the approach presented in this study, the predicted results of land cover changes were compared with the results of land cover classification from the RF algorithm. According to this evaluation, the accuracy of forecasting changes for water bodies, vegetation, barren lands, and salt marsh was estimated to be 82.5, 94.9, 86.8, and 94.7%, respectively.

    Keywords: Change Detection, Prediction, Image Time Series, Spatio-temporal Modeling, Image Fusion
  • A. Tavakoli Darestani, N. Mostofi*, A. Moghimi Pages 95-110

    Biomass is a crucial component of the carbon cycle; thus, accurate evaluation is essential to manage the forest and understand its role in climate change. Biomass estimation also supports the international reduced emission from deforestation and forest degradation (REDD), including cases such as deforestation reduction, sustainable management of forests, protection and enhancement of forest carbon reserves). Today, using remote sensing techniques with the help of field data has revolutionized the estimation of forest biomass. Forest biomass estimation can be based on the processing of remote sensing data obtained from active sensors (for example, lidar and radar) and passive sensors (for example, optical sensors). In most previous studies, mainly vegetation indices (such as Normalized Difference Vegetation Index (NDVI), Ratio Vegetation Index (RVI), and Soil-Adjusted Vegetation Index (SAVI)) have been used to estimate biomass. Using terrain data, the amount of biomass is estimated using allometric equations, and the required pre-processing is done on optical and radar images. The attributes obtained from the scattering matrix and the ratios of the components of the scattering matrix and the attributes obtained from H/α decomposition are extracted from the radar image and the attributes of vegetation, soil and water are extracted from the optical image. Results and discussion  In this study, in order to improve the accuracy of estimating the biomass of forest areas, the features extracted from the optical images of Sentinel-2 sensor and Sentinel-1 radar data as well as field data of Noor forest areas, Mazandaran province, whose forest cover type, Carpinus betulus and Quercus Castaneifolia and also includes rare species such as Populus Caspica Bornm trees. In this study, we used the genetic optimization method in four classes of mixed vegetation, natural forest, degraded forest, and forest reserves were studied. In this regard, multivariate linear regression and support vector regression have been used to model between ground data and radar and optical features. Genetic algorithm (GA) is one of the most common evolutionary algorithms. This method finds potential solutions to optimize problems at the right time, especially when the search space is very wide. Also, a genetic algorithm has been used during the modeling process using multivariate linear regression to select the optimal features extracted from radar and optical images. Evaluation of the results showed that the use of the multivariate regression method led to more accurate results than the support vector regression method in the study area. Also, evaluation of the results showed that using features selected by a genetic algorithm led to an accurate R2 of 0.78, 0.87, 0.68, and 0.79 for first to fourth vegetation classes, respectively. Therefore, the results showed that the efficiency of the genetic algorithm in feature selection for biomass estimation from satellite images using the multivariate regression method.

    Keywords: Biomass Estimation, Genetic Algorithm, Radar, Optics Images, Multivariate Linear Regression
  • M. A. Darehshuri, M. Yazdi* Pages 111-125

    Landslide is a geological phenomenon that occurs in the unstable slopes of mountainous areas and in some cases causes very severe human and economic losses.  Research shows that by using the classification of landslide prone areas, possible future damage can be prevented.  The purpose of this study is to produce a landslide sensitivity map for Ardabil province using two machine learning methods ANFIS and SVM and combining them with PSO and GWO metaheuristic algorithms.  For this purpose, first a landslide map of 253 points was prepared.  Among the slip points, 70% were considered for Training and the remaining 30% were used for validation.  Continuing and according to previous studies and available data, fourteen effective factors including height, slope, slope direction,profile curvature and plan curvature of the slope, land use, lithology, rainfall, distance from the road, distance from the river, distance from the fault, road density , river density and fault density were selected.  After preparing the database using MATLAB software, the combined models SVR - PSO , SVR - GWO , ANFIS - GWO and ANFIS - PSO were implemented and then the landslide sensitivity index was obtained for each model.  During the modeling process, the performance of each method was evaluated using the RMSE statistical index.  Finally, landslide sensitivity maps were generated for each model using ArcMap 10.5 software and then the accuracy of each map was estimated using the ROC curve.  The results show that the ANFIS - psd model is more efficient than the other three models. The results of ROC curve obtained by applying ANFIS - PSO  , ANFIS - GWO , SVR - PSO , SVR - GWO were 89.4, 85.7, 88.1, 88.7,respectively.

    Keywords: Machine Learning, Supervise Learning, Landslide, Optimization Algorithms, GIS
  • N. Bishei*, A. Ramezani Pages 127-138
    Introduction

     One of the main public needs of people in all societies is public health. Identifying pathogenic agents and how they are transmitted and distributed in the environment is one of the management methods in providing the health needs of communities [1]. Studying the distribution of diseases is important for two reasons. First, these studies can be a way to find the causes of diseases, and second, the geographical distribution of diseases can be an indicator of how people and human groups interact with the environment [6]. Therefore, it is necessary to design a system for data management in order to control and care for infectious diseases. The spatial information system with the possibility of using satellite information is a new and cost-effective method in line with this need, which in the long run will compensate the initial investment by reducing the costs of data collection and disease control, and in addition, the way to use these facilities in information management systems. and provides care for other diseases. Because health and illness always have a spatial dimension [8]. Identifying and displaying spatial patterns plays an important role in establishing health policies. For many, spatial data analysis is the same as map production. The use of disease distribution maps for epidemiological purposes has a long history. The first step in the design of spatial information systems in Hamadan city is to examine the human location and the potential and actual information sources of the infectious disease care system. The main purpose of using the spatial information system is to strengthen and support the care and management system of infectious diseases and create the ability to analyze the spatial information and then make timely decisions [9].

     The studied area:

    This research was implemented in Hamadan city. Demographic information was prepared from the demographic information related to the census of 2015 in Hamedan city, and to obtain information on infectious diseases, it was extracted from the classified information set of patients in Bo Ali Sina University of Medical Sciences, Hamedan city. Specific results of this research are presented in several sections.

    Materials and methods

     The information needed in this research is collected by using library studies, checking similar domestic and foreign research records, collecting descriptive information by questioning and studying the documents available in libraries, as well as field research. In this research, in order to develop the methodology and processes for investigating the distribution of diseases, as well as the effect of interactive GIS systems on the control and management of diseases, two series of analysis and evaluation are carried out. descriptive test and inferential test; Therefore, in order to implement the stage of identifying the distribution of diseases during a 5-year period in Hamedan city, first all the necessary data of the health centers and Boali University of Medical Sciences of Hamedan are prepared and collected, after verifying the information based on statistical methods and performing the Smirnov test. Kolmogorov, data distribution is examined. After that, the distribution of the obtained data is checked with the T-statistics test. Finally, after performing the descriptive test, this information is categorized and then analyzed based on the characteristics of the diseases and their time period, the results of these analyzes are shown in the form of tables and evaluation charts. In the spatial statistics test, in order to evaluate spatial systems on the control and management of diseases in a 5-year period, first, spatial information based on the location of the residence of each case, longitude and latitude related to the residence of each patient for the spatial analysis of the disease was obtained and in a database stored and then classified based on the main diseases. In this regard, after checking the accuracy of the entered data, secondary analysis is defined based on the main charts and tables. By examining the location of sick people in the geographic information system (GIS) and entering the information and characteristics of patients in this system, important information such as the distribution of the disease, examination of the produced clusters, geographical effects on the disease, the speed of spread and transmission of the disease can be obtained. For spatial analysis, Moran's spatial autocorrelation method and Pearson's statistical test are used to estimate the correlation of diseases with spatial characteristics in the GIS environment. It is also possible to implement a suitable system process framework in order to model the distribution of different diseases outside of the current research based on the mechanism of the spatial information system and satellite images in the control and management of diseases in any region. This framework includes types of diseases and time-spatial distribution patterns that cause and effect relationships between entities will be presented in the form of a block diagram.

    Implementation:

     The purpose of this study is to prepare a map of the spatial and temporal clusters of infectious diseases, to investigate the factors affecting the disease and their impact, and finally to find a method to model the prevalence of the disease, this model can help disease management and control programs. All information and documents related to the causes of the disease were extracted by study and evaluation. In this regard, it is necessary to perform processing related to the model on descriptive items with the same spatial unit; Therefore, the required spatial unit was considered for all factors. In order to model the diseases using the moving average model, first the zoning map of Hamedan city was prepared using the number of infected patients in each region. Then, using the moving average model and using the Raster Calculator computing space in ArcGIS software, the final disease distribution model was produced.

    Keywords: Spatial Statistics, Infectious Diseases, Spatial Information System, Modeling
  • F. Ashtari Mahini*, F. Samadzadegan, F. Dadrasjavan Pages 139-156

    Today, drones have received much attention due to their many benefits and wide range of applications such as mapping, agriculture, and crisis management, and have replaced many of the existing traditional methods. However, the expansion of drones and their unauthorized entry into important infrastructure such as government buildings can pose potential threats to public safety. Therefore, small drone detection, localization, and tracking systems are critical. In recent years, neural network-based diagnostic methods and deep learning approaches have shown considerable ability in the field of drone detection. Therefore, in this research, a detection method based on deep convolutional learning networks has been used to detect drones. On the other hand, the use of visible images faces problems such as the presence of hidden areas, crowded backgrounds, and the impossibility of separating the background and light problems inside the image. Also, thermal image-based systems, despite having night vision power, have less spatial resolution than the visible image, which makes the drone detection process difficult. Recently, the use of depth images, which do not have the challenges associated with visible images and show the distance and proximity of the object to the camera, has become very popular. In this research, drone detection has been performed using a collection of simulation and real depth images and using YOLO (You Only Look Once) deep learning network. The real depth images in this study were obtained through a Semi Global Matching algorithm (SGM), and finally, the validation of the trained model was examined with a variety of real-time and simulation depth images with three types of drones inside and outside the environment. Finally, the results of drone detection with the desired deep learning network in the simulation depth images reached an average precision of 84%, an average time of 125 ms, and in real depth images an average precision of 74%, an average time of 133 ms.

    Keywords: Drone Detection, Depth Images, Deep Learning, YOLO Deep Learning Network, SGM Matching Algorithm
  • A. Omidi*, N. Samani, M. R. Jelokhani-Niaraki, A. Mansourian, A. Ghaysouri Pages 157-169
    Introduction

    Chronic obstructive pulmonary disease restricts airflow in the respiratory system. After the age of 40 or 50, the symptoms of this disease become more apparent. According to studies, there were 251 million cases of COPD worldwide in 2016, which is expected to become the third leading cause of death in 2030. The symptoms of this disease include shortness of breath, chronic coughing, and phlegm over several days. While COPD cannot be cured, it can be identified by its symptoms, which will help to improve quality of life and reduce mortality risks. The fundamental principle in this type of disease is early diagnosis and timely access to medical care (including hospitalization). With the advancement of smart and remote technologies in many fields, especially health and treatment, humans have been able to improve and solve problems more efficiently. In recent years, context awareness has become one of the new and practical concepts in the area of health diagnosis and treatment, due to its combination with fuzzy expert systems. Based on this, a system can be context-aware, which includes information to describe the activities of users of a program, so the information is the context. Because the diagnosis process is patient-centered, this information provides them with the possibility of quick notification of abnormalities, which in turn prevents wasted time and money. As a result, this information provides a suitable background for accurate and early prediction of abnormalities for efficient treatment. It seems necessary to design a system that compensates for the previous shortcomings and uses modern concepts of context and context awareness since no study has been conducted regarding the diagnosis of COPD disease by tissue-awareness method and direct communication with the user has not been used in their treatment methods.

    Methodology

    The purpose of this model is to create high-level context information based on low-level data. To achieve this goal, low-level context data are converted into different fuzzy sets that form inputs for the fuzzy inference engine, and then they are converted into high-level meaningful information, and based on this knowledge base, conclusions are drawn about the risk level of the disease. There are several factors that can be used to diagnose the level of COPD, including: 1) Air pollution level 2) Disease symptoms 3) Age 4) Cold and hot environmental conditions (temperature). In order to investigate the effective tissues in determining the severity of the disease, 60 patients with chronic obstructive pulmonary disease during one year (2018) in 25 medical centers of Ilam city were asked to provide their medical history and personal characteristics, as well as they completed their questionnaire under the supervision of a doctor. The slope of belonging to a set slowly changes into "not belonging to it" in fuzzy sets, unlike classical sets. There are four basic steps in a fuzzy inference system: fuzzification, knowledge base, decision making unit, and defuzzification. Using the existing rule base, the decision-making unit obtains the diagnostic levels of COPD disease (normal, moderate, severe), which can then be used with the de-fuzzification of the outputs. All the data received from the patients were entered into the fuzzy system and the output was compared with the recorded diagnosis of the specialist doctor to evaluate the system. In order to evaluate and perform the fuzzy system in the diagnosis of COPD, the Kappa test, accuracy, sensitivity, and F1 scores were used.

    Results and Discussion

    The determination of effective individual and environmental contects for diagnosing chronic obstructive pulmonary disease was first prepared using library research and risk assessments of determining factors, and then based on a lung disease specialist's opinion. As a result, the fuzzy expert system was designed based on the parameters of the symptoms (such as coughing, chest phlegm, feelings of heaviness in the chest, breathing, sleeping, energy level, range of physical activity, relief from leaving the house - despite the physical condition), air pollution level, age, cold and hot environmental conditions (temperature), etc. After determining the membership functions, it is necessary to create the rule base. According to four system inputs, 183 "if-then" rules were performed. By using the Kappa statistical test, we compared the fuzzy expert system's diagnosis with that of the relevant doctor's final diagnosis. The Kappa statistical test had a value of 0.77, which indicated a very strong relationship between the variables. In the confusion matrix, which is used to evaluate the model's performance, the accuracy value was equal to 0.8167, the sensitivity value was equal to 0.8182, and the F1 score was equal to 0.8791.

    Conclusion

    A fuzzy context-based expert system is a new approach that provides accurate and quick information to patients by inferring individual and environmental contexts. The purpose of this study is to gain a deeper understanding of the user's current condition and to determine the level of their illness with the addition of the user's participation in receiving personal and environmental contexts, as well as his participation in decision-making. The approach presented in this article can be repeated and implemented in other situations. This method can be applied in different regions and cities or different division levels such as districts or provinces.

    Keywords: Chronic Pulmonary Obstruction, Context Awareness, Individual, Environmental Contexts, Fuzzy Inference System
  • Z. Ghasempoor, S. Behzadi* Pages 171-186

    Traffic and its problems have become a big social issue in all societies today. Knowing essential factors that affect traffic, and the factors that aggravate traffic can be useful for managing the traffic. Nowadays, the problem of traffic forecasting has become a goal among different countries. If one can predict the traffic, he can prevent the waste of energy and time. Predicting the traffic situation and its behavior, especially in big cities, requires managing, planning, and spending time. Geographic Information System (GIS) is an important technology and science for spatial analysis. Since traffic is a spatial and temporal problem, this science can well manage the problem of traffic. In the field of traffic, people often look for a route that meets the criteria of being short, low cost, and consuming the least amount of energy. For this reason, traffic is one of the most influential factors in choosing the route to reach the destination. It can be said that people prefer a long route with little traffic to a short route with heavy one. Thus, traffic affects many optimal route equations. Therefore, it is clear that the main criterion for choosing a route is the traffic situation on the relevant route. In this research, the collection of traffic data of Tehran province has been done using the proposed platform. Traffic data exists in real time, but the problem is that there is no platform for data collection. The lack of a suitable platform for storing traffic data has always been a problem that has challenged researchers in this field. Therefore, in this research, a method for collecting and storing traffic data on the web platform has been proposed. In this research, traffic images are first captured from web platforms. Then the intensity of the traffic is identified based on the color scheme. According to the position of the pixels in the image and the existing control points, the ground coordinates of all the pixels are calculated. Finally, the collected coordinates are stored in the database based on the standard spatial format. Finally traffic data is stored in the database instantly based on the current system. During this research, it was found that the point that has heavy traffic has heavy traffic in most hours of the day. It was also found that places with heavy traffic have a uniform behavior during different days of the week. In other words, it is rarely seen that points with different traffic loads have a significant difference in the traffic situation. In terms of accuracy, it can be stated that the collection of traffic data points has been done with acceptable accuracy in terms of location. The collected points are also the most compatible with other data in the database.

    Keywords: Traffic, Automatic Traffic Storage, Traffic Behavior, Geographic Information Systems (GIS), Web Model
  • N. Neysani Samany*, A. Namazi, S. Daraee Pages 187-195

    Today, location recommender systems have made it possible to analyze and recommend location services for different users. The ability to personalize the provision of services to various system users has increased the applicability and efficiency of such systems. The personalization of recommendations in the field of sports venues is one of the urban services that can be very effective in increasing the level of health of citizens and society. The purpose of the current research is to design a personalized knowledge-based recommender system so that people can receive the most suitable and optimal positions for receiving sports services based on their needs and conditions. In order to implement the proposed plan, different people were clustered based on their characteristics and personal conditions with the help of the self-organizing neural network algorithm, and in order to model the uncertainty, the preferences of the elderly were entered into the intuitive fuzzy inference engine and a clear and accurate output was obtained and given to the user. In this research, the knowledge recommender system has been designed as a personalized basis for providing sports recommendation services so that citizens can receive the most appropriate and optimal services based on their needs and conditions. In order to implement the proposed plan, the characteristics and personal conditions of people were obtained based on various online questionnaires and based on the unsupervised neural network of self-organizer mapping, people with similar characteristics were placed in specific groups, and in this way, and the basic knowledge base for the recommender system was created. Finally, through the descriptive combination of the obtained outputs from the information of the users, optimal positions have been extracted for recommending and displaying the output of the system on the map, Django library, which is a web-based programming platform, has been used. From the Open-Layer location library and J-Query library, the desired location should be shown on the OSM map as a map under mobile. After that, through the designed user interface, the personal characteristics of the people are received, then, the individual cluster is determined, and in order to model the uncertainty, the information received from the citizens is entered into the fuzzy inference engine of the second type. The outputs obtained from the designed algorithm will be displayed as a set of positions and the user can see its position on the map by selecting any of these positions. Then, an explicit and accurate output of the user's preferences has been achieved and a recommendation is made from the inflectional combination of the outputs obtained from the two designed sections, and suitable outputs are recommended to the user. Finally, the system was evaluated based on three parameters: accuracy (0.74), sensitivity (0.81), and F-Score (0.77), and the results indicate a good and acceptable performance of the system.

    Keywords: Sports Services, Recommender Systems, Uncertainly, Intuitive Fuzzy Inference, Self-organizing Map